齋月的第一天午夜前,居住在加爾各答的20歲穆斯林學生雷漢·汗在領英上發帖宣佈,他推出了 QuranGPT,這是一款人工智慧驅動的聊天機器人,旨在根據伊斯蘭教最神聖的文本回答問題和提供建議。然後他就去睡覺了。七小時後他醒來,發現它因流量溢位而崩潰。許多評論是積極的,但也有一些不是。有些簡直是赤裸裸的威脅。
汗最初感到壓力,想要將聊天機器人下線,但他最終改變了主意。他認為人工智慧可以成為一種橋樑,將人們與他們最深刻的精神問題的答案聯絡起來。“有些人想要接近他們的宗教,[但] 不願意花時間去更多地瞭解它,”汗說。“如果我可以讓所有內容透過一個提示輕鬆訪問,會怎麼樣?”
QuranGPT——目前已被全球約 23 萬人使用——只是最近在網上出現的大量基於宗教文字訓練的聊天機器人之一。還有 Bible.Ai、Gita GPT、Buddhabot、使徒保羅 AI,一個模仿 16 世紀德國神學家 馬丁·路德 訓練的聊天機器人,另一個基於 孔子 的著作訓練的聊天機器人,以及另一個旨在模仿 德爾斐神諭 的聊天機器人。數千年來,各種信仰的信徒花費大量時間——甚至一生——研究經文,以從中獲取對人類存在最深奧的奧秘的見解,例如,靈魂死後的命運。
支援科學新聞報道
如果您喜歡這篇文章,請考慮透過以下方式支援我們屢獲殊榮的新聞報道 訂閱。透過購買訂閱,您正在幫助確保有關塑造我們當今世界的發現和思想的具有影響力的故事的未來。
這些聊天機器人的建立者不一定相信大型語言模型 (LLM) 會解決這些古老的 theological 難題。但他們確實認為,憑藉其識別大量文字中細微語言模式並以類似人類的語言響應使用者提示的能力(一種稱為自然語言處理或 NLP 的功能),這些機器人理論上可以在幾秒鐘內綜合精神見解,從而節省使用者的時間和精力。這是按需提供的神聖智慧。
然而,許多專業神學家對將 LLM 與宗教混合抱有嚴重的擔憂。維拉諾瓦大學神學系主任、撰寫過多本關於宗教與科學交叉書籍的伊利亞·德里奧認為,這些聊天機器人——她不屑一顧地將其描述為“通往上帝的捷徑”——破壞了傳統上透過長期直接接觸宗教文字所獲得的精神益處。一些世俗的人工智慧專家認為,使用 LLM 解釋經文是基於對該技術的基本且可能危險的誤解。然而,宗教團體正在擁抱多種型別和用途的人工智慧。
其中一種新興的用例是聖經翻譯。在此之前,這項工作非常緩慢;將古代文獻翻譯成英文欽定版聖經(最初於 1611 年出版)花費了 七年 和一大批忠誠的學者。但 LLM 正在加快這一程序,使學者能夠擴大聖經的影響範圍。例如,一個名為 Paratext 的平臺使用 NLP 來翻譯經文中的深奧術語——例如“贖罪”或“成聖”——以產生其 網站 上描述的“聖經的忠實翻譯”。去年,南加州大學的計算機科學家啟動了 希臘語室 專案,該專案透過使用人工智慧聊天機器人介面,幫助將聖經翻譯成“低資源”語言(即,幾乎或根本沒有任何書面記錄的語言)。
LLM 也被用作研究聖經譯本之間語言變異的一種手段。在今年早些時候上傳到預印本網站 arXiv.com 的一篇研究論文中,一個國際科學家團隊描述了情感分析(一種 NLP 支援的檢測文字中情感效價的過程)在分析耶穌的“登山寶訓”(新約中最著名的段落之一)中的應用。(“溫柔的人有福了,因為他們必承受地土……”)在分析了這篇佈道的五個不同譯本(包括欽定版)後,研究人員“發現各個譯本的詞彙量差異很大”。他們還“檢測到耶穌用來傳達資訊的相關章節中存在不同程度的幽默、樂觀和同情心”。
人工智慧可能有助於重振神學或宗教研究。計算機科學家馬克·格雷夫斯認為,LLM 理論上可以用來削弱僵化的宗教正統觀念。“在某種意義上,神學領域在過去 800 年裡幾乎沒有出現什麼新事物,”非營利組織 AI and Faith 的主管格雷夫斯說,該組織致力於解決人工智慧的倫理挑戰。“生成式人工智慧可以幫助實現突破框架的轉變……並創造新想法。”
例如,格雷夫斯說,想象一下一個基於聖奧古斯丁(公元 354-430 年)著作訓練的聊天機器人,另一個基於托馬斯·阿奎那(約 1225-1274 年)著作訓練的聊天機器人。神學家可以讓這兩位非同時代的人“對話”,可能會引發關於邪惡本質等富有成果的問題。他將 LLM 背後的隨機機制比作“一個新手學生甚至是一個年幼的孩子[提出]一個問題,從而引發一種關於事物的新的思考方式。”
然而,其他人工智慧專家則明顯持謹慎態度。“人們會受到誘惑,透過將某種啟示性質賦予這些聊天機器人來賺錢、出名並獲得關注,”塔夫茨大學技術倫理學訪問學者 托馬斯·阿諾德 說,他還在哈佛大學獲得了宗教學博士學位。
明尼蘇達州聖約翰大學神學和計算機科學教授諾琳·赫茨菲爾德說,基於宗教文字訓練的聊天機器人“將帶有目前所有大型語言模型都存在的一些缺陷,其中最大的缺陷是幻覺”。“它們會編造東西。如果人們相信這些模型所說的是《古蘭經》或《新約》中的內容,他們可能會被嚴重誤導。”
人工智慧公司 MosaicML 的機器學習工程師馬克斯·馬裡恩擔心好萊塢已經在大眾的想象中灌輸了一種錯誤的人工智慧形象,即人工智慧是絕對真實的(想想斯坦利·庫布里克《2001:太空漫遊》中的 HAL 9000,例如)。但他解釋說,LLM 的設計目的是以統計學上最合乎邏輯的順序排列單詞;我們所說的真理並沒有被納入方程式。
蘇黎世大學人工智慧人類學專家和數字宗教助理教授貝絲·辛格勒說:“聊天機器人只是一種關聯機器。”“它獲取文字語料庫,重新組合單詞,並根據單詞接在下一個單詞之後的機率將它們排列在一起……這與理解和解釋教義不同。”
在這種情況下,幻覺的危險因以下事實而加劇:宗教導向的聊天機器人很可能會吸引極其敏感的問題——人們可能會覺得太尷尬或羞愧而無法向牧師、伊瑪目、拉比甚至密友提出的問題。在去年對 QuranGPT 進行軟體更新期間,汗短暫地瞥見了使用者提示,這些提示通常對他來說是不可見的。他回憶說,他看到有人問:“我抓到妻子出軌——我應該如何回應?” 另一個更令人不安的問題是:“我可以打我的妻子嗎?”
汗對系統的回應感到滿意(它敦促就這兩個問題進行討論和非暴力),但這次經歷突顯了他所承擔的倫理責任的嚴重性。事實上,其他聊天機器人給出了應受譴責的建議。有 記錄在案的案例 表明,Gita GPT 在引用《薄伽梵歌》中的段落時縱容謀殺。它說,只要是為了保護自己的 dharma 或職責而殺人,就是可以的。對於任何向這些聊天機器人尋求建議的人,辛格勒敦促人們使用“懷疑的解釋學”——一種謹慎感,這種謹慎感源於這樣一個事實:詞語總是可以被多種方式解釋,不僅被易犯錯的人類,現在也被易犯錯的機器解釋。

